iT邦幫忙

2023 iThome 鐵人賽

DAY 18
0
AI & Data

夥伴們!一起航向AWS Certified Machine Learning Specialty的偉大航道吧!系列 第 18

Day 18 第三站 Modeling - 來個不一樣的模型訓練 Transfer Learning and Ensemble Learning

  • 分享至 

  • xImage
  •  

訓練模型,除了單一模型從頭開始訓練以外,也可以採用別人已經訓練好的模型,站在巨人的肩膀上,根據我們的需求去調整模型的架構,用更簡短的時間來完成模型的訓練,也就是所謂的Transfer Learning。除此之外,我們也可以一次聯合多個模型的判斷,來提升模型的預測能力-Ensemble Learning。今天分別跟大家說明這兩種模型訓練的原理。

1. Transfer Learning

要使用Transfer Learning,我們可以先觀察一下我們找到的pretrained model(巨人)是用什麼資料來訓練,是否跟我們的應用場景類似。如果是一樣的訓練資料,而且輸出的內容也一樣,就可以直接使用。如果訓練資料類似,但輸出的內容不一樣,我們可以去frozen pretrained model的權重,並且替換最後輸出層的內容,在訓練模型時,僅訓練輸出層的權重,這就是所謂的fine tune。這種fine tune通常利用小量的資料即可達到相當好的模型表現,因此我們可以減少資料的準備並加速模型的訓練,讓整體開發時間縮短很多。但也有另外一種場景,當我們的pretrained model跟我們應用場景的資料差異較大,我們就會需要準備比較大量的資料,讓pretrained model從頭開始去訓練學習,不做pretrained model layer的frozen,這就會花比較多時間去訓練這個模型。

目前tech community有許多model zoo,例如最知名的Hugging Face、Intel OpenVino Model Zoo等。

2. Ensemble Learning

Ensemble Learning有兩種典型的架構: Bagging與Boosting。一般來說,Boosting的表現會優於Bagging,但是Bagging比較可以避免Overfitting的問題,並且更適合採用平行化處理方式加速運算。

Bagging

可以看Bagging是多組模型平行被訓練,每一組model會根據不同的採樣去產生訓練集資料,讓各組model分別從不同角度去學習不同的資料。接著,會根據各組model的輸出,去決定最後的預測值是什麼。整體流程有點像是投票機制。

經典模型案例:Random Forest

Boosting

Boosting則是類似接力賽的概念。我們去建立多組比較弱的模型,然後,每一個弱模型會去識別什麼樣本比較無法被預測,針對這些樣本給予比較高的權重,然後輸出給下一個弱模型去學習,告訴它哪些樣本是比較無法被預測的,請在這一輪訓練,多多關照這些樣本。

經典模型案例:XGBoost


ChatGPT出題時間:

問題1:Transfer Learning的遷移場景

問題: 一家醫療影像公司有大量的X光圖像資料,它想要使用這些資料來訓練一個深度學習模型以檢測肺部疾病。然而,該公司的資料量仍然有限。哪種方法最適合幫助他們解決資料稀缺的問題?

A) 使用Boosting算法
B) 使用Transfer Learning,使用預訓練的神經網絡模型並微調它們
C) 使用Bagging算法
D) 從頭開始構建深度學習模型

答案:B) 使用Transfer Learning,使用預訓練的神經網絡模型並微調它們

解釋: 對於資料稀缺的問題,Transfer Learning是一種有效的方法,可以使用預訓練的神經網絡模型(如在大規模圖像資料上訓練的模型)作為起點,並通過微調來適應特定任務,從而提高模型性能。

問題2:Boosting與分類問題

問題: 一位數據科學家正在解決一個重要的二分類問題,他的模型需要在不影響準確性的情況下降低假陽性率。哪種算法最適合解決這個問題?

A) Bagging算法
B) Transfer Learning
C) Gradient Boosting算法
D) Logistic Regression

答案:C) Gradient Boosting算法

解釋: Gradient Boosting算法(如XGBoost或LightGBM)在降低假陽性率方面非常強大,可以調整模型的閾值以改善分類性能。

問題3:Bagging與回歸問題

問題: 一位數據科學家正在解決一個回歸問題,他的目標是預測房屋價格。他想要減小模型的方差並提高預測的穩定性。哪種方法最適合解決這個問題?

A) Transfer Learning
B) Bagging算法
C) Boosting算法
D) 線性回歸

答案:B) Bagging算法

解釋: Bagging算法通過對數據進行隨機抽樣和構建多個模型的方式來減小方差並提高模型的穩定性,適合回歸問題。

問題4:Transfer Learning與文本分類

問題: 一家新聞出版公司想要自動分類新聞文章,但他們只有很少的標記數據。哪種方法最適合幫助他們構建一個文本分類模型?

A) Bagging算法
B) 使用Transfer Learning,使用預訓練的自然語言處理模型並微調它們
C) 使用Boosting算法
D) 從頭開始構建一個深度學習文本分類模型

答案:B) 使用Transfer Learning,使用預訓練的自然語言處理模型並微調它們

解釋: 對於文本分類問題,Transfer Learning在有限標記數據情況下是一個有用的方法,可以使用預訓練的自然語言處理模型(如BERT或GPT)作為起點,並通過微調來適應特定的新聞分類任務。

問題5:Boosting與弱分類器

問題: 在Boosting算法中,弱分類器是什麼意思?

A) 分類器的性能比隨機猜測稍好
B) 分類器的性能比隨機猜測稍差
C) 分類器的性能比強分類器好
D) 分類器的性能與隨機猜測相同

答案:A) 分類器的性能比隨機猜測稍好

解釋: 在Boosting算法中,弱分類器是指性能略好於隨機猜測的分類器,它們通過集成方法來提高性能,使得最終的分類器成為強分類器。


上一篇
Day 17 第三站 Modeling - 簡易的看常見的Deep Learning模型架構
下一篇
Day 19 第三站 Modeling - 如何調教模型超參數
系列文
夥伴們!一起航向AWS Certified Machine Learning Specialty的偉大航道吧!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言